射频和深度学习在自动胶质瘤分级中显示出很高的普及。辐射瘤可以提取手工制作的特征,定量描述胶质瘤等级的专家知识,深度学习在提取促进最终分类的大量高吞吐量功能方面是强大的。然而,随着它们的互补优势尚未充分调查和整合,仍然可以提高现有方法的性能。此外,通常需要病变图来进行测试阶段的最终预测,这是非常麻烦的。在本文中,我们提出了专业知识引导的几何表示学习(录音)框架。手工制作功能和学习特征的几何歧管构建为挖掘深度学习和辐射族之间的隐性关系,从而挖掘相互同意和胶质瘤等级的必要表现。通过专门设计的歧管差异测量,分级模型可以更有效地利用输入图像数据和专家知识,并在测试阶段摆脱病变分段图的要求。拟议的框架是关于要使用的深度学习架构的灵活性。已经评估了三种不同的架构,并比较了五种模型,表明我们的框架总能产生有前途的结果。
translated by 谷歌翻译
前列腺成像报告和数据系统(PI-RAD)基于多参数MRI类\ ^ EES患者分为5类(PI-RADS 1-5),用于常规临床诊断指导。但是,无论pi-rads 3患者是否应该经过活组织检查,都没有共识。这些硬样品(HS)的采矿功能对于医生来说是有意义的,以实现准确的诊断。目前,HS Biomarkers的采矿是Insu \`的,并且HS Biomarkers用于前列腺癌诊断的e \'助力性和稳健性尚未探讨。在这项研究中,构建了来自DI \'EERENT数据分布的生物标志物。结果表明,HS Biomarkers可以在DI \'EERENT数据分布中实现更好的性能。
translated by 谷歌翻译
数据是现代机器学习系统的命脉,包括音乐信息检索中的命脉(MIR)。但是,MIR长期以来一直被小型数据集和不可靠的标签所困扰。在这项工作中,我们建议使用生成建模打破这种瓶颈。通过使用室内合奏的结构化合成模型(在URMP上训练的MIDI-DDSP)的结构化合成模型,通过管道说明(在巴赫合唱上训练的椰子)模型,我们演示了一个能够生成无限量的逼真的合唱音乐的系统,其中包括丰富的结合音乐,包括混合,包括混合,,,包括混合,茎,MIDI,笔记级性能属性(Staccato,Vibrato等),甚至是细粒的合成参数(音高,振幅等)。我们称此系统为室内集合发生器(CEG),并使用它来生成来自四个不同腔室合奏(cocochorales)的大型合唱数据集。我们证明,使用我们的方法生成的数据改善了音乐转录和源分离的最新模型,并且我们均发布了系统和数据集作为MIR社区未来工作的开源基础。
translated by 谷歌翻译
持续的19日大流行造成了全世界人民的不可估量的损失。为了遏制病毒的传播并进一步减轻危机,已经发布了各种健康政策(例如,在家命令),随着用户转向社交媒体分享他们的态度,他们引发了热烈讨论。在本文中,我们考虑了有关大流行病的立场检测(即跨目标和零照片设置)的更现实的场景,并提出了一个基于对抗性的学习立场分类器,以自动识别公众对与COVID相关健康健康相关健康的态度政策。具体而言,我们采用对抗性学习,使模型可以训练大量标记的数据并从源主题中捕获可转移的知识,从而使具有稀疏标记数据的新兴健康政策概括。同时,设计了一个地理编码器,鼓励模型学习每个区域指定的未观察到的上下文因素,并将其表示为非文本信息,以增强模型的更深入的理解。我们评估了与CoVID-19相关策略的立场检测任务中广泛基线的性能,实验结果表明,我们提出的方法在跨目标和零击设置中都达到了最新的性能。
translated by 谷歌翻译
流行预测是有效控制流行病的关键,并帮助世界缓解威胁公共卫生的危机。为了更好地了解流行病的传播和演变,我们提出了Epignn,这是一种基于图神经网络的流行病预测模型。具体而言,我们设计了一个传输风险编码模块,以表征区域在流行过程中的局部和全局空间效应,并将其纳入模型。同时,我们开发了一个区域感知的图形学习者(RAGL),该图形将传播风险,地理依赖性和时间信息考虑在内,以更好地探索时空依赖性,并使地区意识到相关地区的流行状况。 RAGL还可以与外部资源(例如人类流动性)相结合,以进一步提高预测性能。对五个现实世界流行有关的数据集(包括流感和Covid-19)进行的全面实验证明了我们提出的方法的有效性,并表明Epignn在RMSE中优于最先进的基线。
translated by 谷歌翻译
对传染病疾病的准确预测是有效控制该地区流行病的关键。大多数现有方法忽略了区域之间的潜在动态依赖性或区域之间的时间依赖性和相互依存关系的重要性。在本文中,我们提出了一个内部和内部嵌入式融合网络(SEFNET),以改善流行病预测性能。 SEFNET由两个平行模块组成,分别是嵌入模块的系列间嵌入模块。在嵌入模块的串间嵌入模块中,提出了一个多尺度的统一卷积组件,称为“区域感知卷积”,该组件与自我发挥作用,以捕获从多个区域获得的时间序列之间捕获动态依赖性。内部嵌入模块使用长期的短期内存来捕获每个时间序列中的时间关系。随后,我们学习了两个嵌入的影响度,并将它们与参数矩阵融合法融合在一起。为了进一步提高鲁棒性,Sefnet还与非线性神经网络并行整合了传统的自回归组件。在四个现实世界流行有关的数据集上进行的实验表明,SEFNET具有有效性,并且表现优于最先进的基线。
translated by 谷歌翻译
Molecular conformation generation aims to generate three-dimensional coordinates of all the atoms in a molecule and is an important task in bioinformatics and pharmacology. Previous methods usually first predict the interatomic distances, the gradients of interatomic distances or the local structures (e.g., torsion angles) of a molecule, and then reconstruct its 3D conformation. How to directly generate the conformation without the above intermediate values is not fully explored. In this work, we propose a method that directly predicts the coordinates of atoms: (1) the loss function is invariant to roto-translation of coordinates and permutation of symmetric atoms; (2) the newly proposed model adaptively aggregates the bond and atom information and iteratively refines the coordinates of the generated conformation. Our method achieves the best results on GEOM-QM9 and GEOM-Drugs datasets. Further analysis shows that our generated conformations have closer properties (e.g., HOMO-LUMO gap) with the groundtruth conformations. In addition, our method improves molecular docking by providing better initial conformations. All the results demonstrate the effectiveness of our method and the great potential of the direct approach. The code is released at https://github.com/DirectMolecularConfGen/DMCG
translated by 谷歌翻译
音乐表达需要控制播放的笔记,以及如何执行它们。传统的音频合成器提供了详细的表达控制,但以现实主义的成本提供了详细的表达控制。黑匣子神经音频合成和连接采样器可以产生现实的音频,但有很少的控制机制。在这项工作中,我们介绍MIDI-DDSP乐器的分层模型,可以实现现实的神经音频合成和详细的用户控制。从可解释的可分辨率数字信号处理(DDSP)合成参数开始,我们推断出富有表现力性能的音符和高级属性(例如Timbre,Vibrato,Dynamics和Asticiculation)。这将创建3级层次结构(注释,性能,合成),提供个人选择在每个级别进行干预,或利用培训的前沿(表现给出备注,综合赋予绩效)进行创造性的帮助。通过定量实验和聆听测试,我们证明了该层次结构可以重建高保真音频,准确地预测音符序列的性能属性,独立地操纵给定性能的属性,以及作为完整的系统,从新颖的音符生成现实音频顺序。通过利用可解释的层次结构,具有多个粒度的粒度,MIDI-DDSP将门打开辅助工具的门,以赋予各种音乐体验的个人。
translated by 谷歌翻译
Unsupervised domain adaptation (UDA) for semantic segmentation is a promising task freeing people from heavy annotation work. However, domain discrepancies in low-level image statistics and high-level contexts compromise the segmentation performance over the target domain. A key idea to tackle this problem is to perform both image-level and feature-level adaptation jointly. Unfortunately, there is a lack of such unified approaches for UDA tasks in the existing literature. This paper proposes a novel UDA pipeline for semantic segmentation that unifies image-level and feature-level adaptation. Concretely, for image-level domain shifts, we propose a global photometric alignment module and a global texture alignment module that align images in the source and target domains in terms of image-level properties. For feature-level domain shifts, we perform global manifold alignment by projecting pixel features from both domains onto the feature manifold of the source domain; and we further regularize category centers in the source domain through a category-oriented triplet loss and perform target domain consistency regularization over augmented target domain images. Experimental results demonstrate that our pipeline significantly outperforms previous methods. In the commonly tested GTA5$\rightarrow$Cityscapes task, our proposed method using Deeplab V3+ as the backbone surpasses previous SOTA by 8%, achieving 58.2% in mIoU.
translated by 谷歌翻译
Compressed videos often exhibit visually annoying artifacts, known as Perceivable Encoding Artifacts (PEAs), which dramatically degrade video visual quality. Subjective and objective measures capable of identifying and quantifying various types of PEAs are critical in improving visual quality. In this paper, we investigate the influence of four spatial PEAs (i.e. blurring, blocking, bleeding, and ringing) and two temporal PEAs (i.e. flickering and floating) on video quality. For spatial artifacts, we propose a visual saliency model with a low computational cost and higher consistency with human visual perception. In terms of temporal artifacts, self-attention based TimeSFormer is improved to detect temporal artifacts. Based on the six types of PEAs, a quality metric called Saliency-Aware Spatio-Temporal Artifacts Measurement (SSTAM) is proposed. Experimental results demonstrate that the proposed method outperforms state-of-the-art metrics. We believe that SSTAM will be beneficial for optimizing video coding techniques.
translated by 谷歌翻译